Loading...
机构名称:
¥ 1.0

人工智能 (AI) 的成功采用在很大程度上取决于决策者对它的理解和信任程度 [6]。在不久的将来,人工智能将对人类做出深远的决策,例如在自动驾驶汽车、贷款申请或刑事司法系统中。像 COMPAS 这样的例子,一种用于假释决策的种族偏见算法表明需要审查人工智能决策 [7]。但像深度神经网络 (DNN) 这样的复杂人工智能模型很难被人类理解,并且充当事实上的黑匣子 [16]。相比之下,决策树等简单模型对人类来说更容易理解,但缺乏预测准确性 [9],尽管有些人认为这不一定正确 [21]。可解释人工智能领域旨在创建更可解释的模型,同时仍实现高预测能力。目前的研究讨论表明,可解释性将带来更多的信任、更现实的期望和更公平的决策 [6]。事后解释技术通过创建一个简化的、可解释的解释模型来工作,该模型近似于黑匣子的行为 [24]。然而,这种简化并非没有风险,因为根据定义,黑匣子的精确工作原理并未显示出来 [24]。相反,可解释模型旨在使

arXiv:2102.06518v1 [cs.AI] 2021 年 2 月 12 日

arXiv:2102.06518v1 [cs.AI] 2021 年 2 月 12 日PDF文件第1页

arXiv:2102.06518v1 [cs.AI] 2021 年 2 月 12 日PDF文件第2页

arXiv:2102.06518v1 [cs.AI] 2021 年 2 月 12 日PDF文件第3页

arXiv:2102.06518v1 [cs.AI] 2021 年 2 月 12 日PDF文件第4页

arXiv:2102.06518v1 [cs.AI] 2021 年 2 月 12 日PDF文件第5页

相关文件推荐

2021 年
¥11.0
2022 年
¥3.0
2022 年
¥2.0
2022 年
¥13.0
2022 年
¥5.0
2022 年
¥16.0